چین قصد دارد چتباتهای هوش مصنوعی را از تأثیرگذاری بر احساسات انسانی به گونهای که ممکن است منجر به خودکشی یا آسیب به خود شود، محدود کند. این موضوع طبق پیشنویس قوانین منتشر شده در روز شنبه اعلام شده است.
این مقررات پیشنهادی که از سوی اداره فضای مجازی چین ارائه شده، به آنچه که «خدمات هوش مصنوعی تعاملی شبیه به انسان» مینامد، هدفگذاری میکند. این تدابیر، پس از نهایی شدن، به محصولات یا خدمات هوش مصنوعی که به عموم در چین ارائه میشود و شخصیت انسانی را شبیهسازی میکند، اعمال خواهد شد.
قوانین پیشنهادی به چتباتهای هوش مصنوعی اجازه نمیدهد تا محتوایی تولید کنند که خودکشی یا آسیب به خود را تشویق کند و همچنین از خشونت کلامی یا دستکاری عاطفی که به سلامت روان کاربران آسیب میزند، خودداری کنند. اگر کاربری بهطور خاص خودکشی را پیشنهاد کند، ارائهدهندگان فناوری باید یک انسان را برای ادامه مکالمه درگیر کنند و فوراً با سرپرست کاربر یا فرد معین تماس بگیرند.
علاوه بر این، چتباتهای هوش مصنوعی نباید محتوای مرتبط با قمار، محتوای غیر اخلاقی یا خشونتآمیز تولید کنند. همچنین، نوجوانان باید اجازه سرپرست خود را برای استفاده از هوش مصنوعی بهعنوان همدم عاطفی داشته باشند و محدودیتهای زمانی برای استفاده تعیین شود.
این پیشنویس پس از این که دو استارتاپ پیشرو چتبات هوش مصنوعی چین، Z.ai و Minimax، درخواستهای اولیه عمومی خود را در هنگ کنگ ارائه کردند، مطرح شده است. Minimax به خاطر اپلیکیشن Talkie AI که به کاربران اجازه میدهد با شخصیتهای مجازی گفتگو کنند، شناخته شده است.
این قوانین جدید در حالی مطرح میشود که تأثیر هوش مصنوعی بر رفتار انسانی تحت نظارت بیشتری قرار گرفته است. سام آلتمن، مدیر عامل OpenAI، در سپتامبر گفت که یکی از چالشهای بزرگ برای این شرکت، نحوه پاسخگویی چتبات به مکالمات مرتبط با خودکشی است.
منبع: CNBC
نظری برای این خبر ثبت نشده است .